AIGC
2023 年 3 月 23 日
如何在Apple M1 上玩转stable-diffusion
花半个小时,在你的Apple ARM芯片的MAC设备上玩转AIGC,Apple的M系列芯片有强大的算力,结合统一内存的技术,我们可以在M系列的Mac上玩转SD,当然,前提是至少得16G内存哦!
被AIGC浪潮一遍遍的拍打,Midjourney免费的25张还没能让我学会“魔法咒语”,没有外币结算的信用卡,充值太麻烦了;所以又到了感谢开源万岁的时候了,继续stable-diffusion练习魔法咒语;Apple的M系列芯片有强大的算力,结合统一内存的技术,我们可以在M系列的Mac上玩转SD,当然,前提是至少得16G内存哦!

stable-diffusion-demo-2.jpg
本着命令行能不用就不用的原则,选择https://github.com/AUTOMATIC1111/stable-diffusion-webui 开源项目来折腾,并且整个搭建的流程非常自动化;对Apple 的ARM芯片的自动安装脚本。
基础环境准备
你需要有python、rust等基础的运行环境,如果已经安装homebrew,可以使用下面这条命令安装:
brew install cmake protobuf rust python@3.10 git wget
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
不会也没事儿,你可以直接下载项目代码的压缩包;
[https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip](https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip)
下载模型
项目代码中是不包含模型的,需要额外去 官方模型库 或者Hugging Face 下载大佬们训练好的模型,图像生成的模型大小一般都挺大,网络不好下载需要一些时间;
一些受欢迎的官方稳定模型:
- Stable DIffusion 1.4稳定扩散1.4 (sd-v1-4.ckptSd-v1-4. ckpt)
- Stable Diffusion 1.5稳定扩散1.5 (v1-5-pruned-emaonly.ckptV1-5-pruned-emaonly. ckpt)
- Stable Diffusion 1.5 Inpainting稳定扩散1.5修补 (sd-v1-5-inpainting.ckptSd-v1-5-内绘. ckpt)
Hugging Face 中你选择Text-to-Image可以查找受欢迎的模型

huggingface.png
最后,将下载好的模型,放在刚刚项目的这个目录下
stable-diffusion-webui/models/Stable-diffusion
Let’s begin
进入项目根目录的终端,执行下面代码,等待运行提示完成,即可在浏览器访问127.0.0.1:7860开始魔法啦;
./webui.sh
在txt2img菜单下,输入你的魔法咒语就可以开始啦;下面各项属性可以调整生成图片的分辨率、、数量等等;我们会在后面的文章中来学习该怎么玩;(我也得学习一下,有点复杂,哈哈哈哈)

stable-diffusion-webui
关于体验
关于生成图像的速度,基于我的MacBookPro M1 Pro 32G的体验来看,512分辨率的图像速度还是挺快的,一般在15s以内可以完成;当然随着你Sampling steps、批量生成数量的增加时间也会增加;玩了大概半小时,可以摸到MBP的温度升上来了。
官方在Apple ARM上使用问题有一些情况说明;目前我使用中还没有遇到(主要是一些高级玩法还没使用)
Currently most functionality in the web UI works correctly on macOS, with the most notable exceptions being CLIP interrogator and training. Although training does seem to work, it is incredibly slow and consumes an excessive amount of memory. CLIP interrogator can be used but it doesn’t work correctly with the GPU acceleration macOS uses so the default configuration will run it entirely via CPU (which is slow).
Most samplers are known to work with the only exception being the PLMS sampler when using the Stable Diffusion 2.0 model. Generated images with GPU acceleration on macOS should usually match or almost match generated images on CPU with the same settings and seed.
目前,Web UI 中的大多数功能在 macOS 上都能正常工作,最显著的例外是 CLIP 询问器和训练。虽然训练似乎可以工作,但速度非常慢,并且消耗过多的内存。CLIP 询问器可以使用,但它不能正确地与 macOS 使用的 GPU 加速配合使用,因此默认配置将完全通过 CPU 运行(这很慢)。
大多数采样器都已知可用,唯一的例外是在使用 Stable Diffusion 2.0 模型时使用 PLMS 采样器。在 macOS 上启用 GPU 加速生成图像应该通常与相同设置和种子下 CPU 生成图像匹配或几乎匹配。
后续
近期,我想要用AIGC帮我生成好看的Logo,没有美术设计背景画的Logo真的惨不忍睹;后续我也会将过程实践中学到的使用教程整理分享出来,之后见啦!
参考来源:
版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)
作者: Zdd 发表日期:2023 年 3 月 23 日